Národní úložiště šedé literatury Nalezeno 58 záznamů.  1 - 10dalšíkonec  přejít na záznam: Hledání trvalo 0.01 vteřin. 
Extrakce textových dat z internetových stránek
Troják, David ; Morský, Ondřej (oponent) ; Červenec, Radek (vedoucí práce)
Tato práce se zabývá dolováním textových údajů z webových stránek, přehledem možných programů a způsoby extrakce textu. Součástí je program, vytvořený v programovacím jazyku Java, který umožňuje získávat textová data z konkrétních webových stránek a ukládat je do xml souboru.
Extrakce vztahů mezi pojmenovanými entitami zmíněnými v textu
Voháňka, Ondřej ; Otrusina, Lubomír (oponent) ; Smrž, Pavel (vedoucí práce)
Tato bakalářská práce se zabývá extrakcí vztahů. Vysvětluje základní znalosti nutné pro vývoj extrakčních systémů. Dále popisuje návrh, implementaci a srovnání tří vlastních systémů, které jsou řešeny jinými způsoby. Jsou použity metody jako regulární výrazy, NER a syntaktická analýza. 
Rámec pro extrakci informace z WWW
Brychta, Filip ; Bartík, Vladimír (oponent) ; Burget, Radek (vedoucí práce)
Prostředí webu se postupně vyvinulo v nejrozsáhlejší zdroj dokumentů v elektronické podobě, takže by bylo velice výhodné, informace v těchto dokumentech zpracovávat automaticky. To však není jednoduchý úkol, protože většina dokumentů je napsána v HTML (Hypertext Markup Language), který neumožňuje definovat sémantiku dat v těchto dokumentech. Cílem této práce je vytvořit modulární systém pro extrakci informací z HTML dokumentů a jejich další zpracování. Dalším zpracováním se myslí ukládání získaných informací například do XML souboru nebo do relační databáze. Modularita systému umožňuje využití různých extrakčních metod a různých metod pro uložení získaných dat. Díky tomu je systém použitelný pro mnoho různých úloh.
Extrakce informací z Wikipedie
Krištof, Tomáš ; Otrusina, Lubomír (oponent) ; Smrž, Pavel (vedoucí práce)
Tato bakalářská práce se zabývá problematikou extrakce informací z nestrukturovaného textu. V první části jsou čtenáři přiblíženy jednotlivé metody, které se v informačních tech- nologiích používají k extrakci informací. Následně je popsán návrh a realizace systému, který získává požadovaná data ze zadaných článků internetového serveru Wikipedie. V po- slední části práce je provedena analýza dosažených výsledků.
Podpora extrakce informací ze strukturovaného textu
Kliment, Radek ; Petřík, Patrik (oponent) ; Křivka, Zbyněk (vedoucí práce)
Tato bakalářská práce se zabývá způsobem extrakce informací ze strukturovaných textů. Výsledná aplikace provede převod textů podporovaných formátů na XML reprezentaci, nad kterou jsou následně prováděny dotazy, pomocí nichž je vytvořen odpovídající výstup. V práci jsou popsány jednotlivé vstupní formáty, způsob jejich převodu na XML, dále návrh a implementace aplikace, včetně stručného návodu k ovládání.
Extrakce dat z popisu zboží
Sláma, Vojtěch ; Očenášek, Pavel (oponent) ; Burget, Radek (vedoucí práce)
Tato práce se zabývá návrhem a implementací systému pro automatizovanou podporu sběru informací o zboží pro účely elektronických obchodů. Uvádí přehled existujících přístupů pro extrakci informací z HTML dokumentů, zejména se zaměřuje na wrappery a metody jejich automatické konstrukce. Zmíněn je i vizuální přístup k extrakci dat z dokumentů. V části zabývající se návrhem jsou formalizovány požadavky na systém a navrženy základní principy systému. Implementační část obsahuje podrobný popis algoritmu pro hledání cest ve stromu dokumentu. V závěru práce jsou zhodnoceny výsledky dosažené při experimentech.
Extrakce informací z biomedicínských textů
Knoth, Petr ; Burget, Radek (oponent) ; Smrž, Pavel (vedoucí práce)
V poslední době bylo vynaloženo velké úsilí k tomu, aby byly biomedicínské znalosti, typicky uložené v podobě vědeckých článků, snadněji přístupné a bylo možné je efektivně sdílet. Ve skutečnosti ale nestrukturovaná podstata těchto textů způsobuje velké obtíže při použití technik pro získávání a vyvozování znalostí. Anotování entit nesoucích jistou sémantickou informaci v textu je prvním krokem k vytvoření znalosti analyzovatelné počítačem. V této práci nejdříve studujeme metody pro automatickou extrakci informací z textů přirozeného jazyka. Dále zhodnotíme hlavní výhody a nevýhody současných systémů pro extrakci informací a na základě těchto znalostí se rozhodneme přijmout přístup strojového učení pro automatické získávání exktrakčních vzorů při našich experimentech. Bohužel, techniky strojového učení často vyžadují obrovské množství trénovacích dat, která může být velmi pracné získat. Abychom dokázali čelit tomuto nepříjemnému problému, prozkoumáme koncept tzv. bootstrapping techniky. Nakonec ukážeme, že během našich experimentů metody strojového učení pracovaly dostatečně dobře a dokonce podstatně lépe než základní metody. Navíc v úloze využívající techniky bootstrapping se podařilo významně snížit množství dat potřebných pro trénování extrakčního systému.
Systém pro integraci webových datových zdrojů
Kolečkář, David ; Bartík, Vladimír (oponent) ; Burget, Radek (vedoucí práce)
Cílem této diplomové práce je navrhnout a implementovat webovou aplikaci, která bude sloužit pro integraci webových datových zdrojů. K řešení integrace dat byla použita metoda, která využívá doménový model cílového informačního systému. Práce popisuje jednotlivé metody používané na extrakci informací z webových stránek. V textu práce je popsán proces návrhu architektury systému včetně popisu zvolených technologií a nástrojů. Hlavní částí práce je implementace a testování výsledné webové aplikace, která je napsána v jazyce Java a frameworku Angular. Výsledkem této práce je webová aplikace, která uživatelům umožní definici webových datových zdrojů a ukládání dat do cílové databáze.
Detekce vizuálních vzorů ve webových stránkách
Kotraš, Martin ; Bartík, Vladimír (oponent) ; Burget, Radek (vedoucí práce)
Práce řeší extrakci informací z webových stránek pomocí techniky vyhledávání vizuálních vzorů - prostorových vztahů mezi oblastmi na webové stránce a stejných vizuálních stylů těchto oblastí - s rozšířením o nové techniky zlepšení výsledků. Využívá přitom uživatelem zadaného ontologického modelu dat, který popisuje, které datové položky se budou ze zadané webové stránky extrahovat a jak jednotlivé položky na stránce vypadají zejména z textového pohledu. V rámci práce vznikla konzolová aplikace VizGet v jazyce Java využívající aplikační rámec FitLayout pro získání vizuálního modelu webové stránky. Testování aplikace na 7 různých doménách zahrnujících mj. žebříček nejlepších filmů, produktů v elektronickém obchodě nebo předpovědi počasí ukázalo, že se úspěšnost aplikace pohybuje ve zhruba 75 % dílčích testů nad 85 % F-skóre a ve více než 90 % testů nad 60 % F-skóre, kde 45 % testů dosahuje F-skóre 100 %. Aplikace VizGet tak může být nasazena pro praktické využití v nekritických aplikacích, přičemž je otevřena dalším rozšířením a možnostem zlepšení.
Webové uživatelské rozhraní nástroje pro extrakci informací
Pokorný, Jan ; Křivka, Zbyněk (oponent) ; Burget, Radek (vedoucí práce)
V této práci se můžete dočíst o návrhu a implementaci JavaScriptové aplikace, která slouží jako uživatelské rozhraní pro nástroj k extrakci dat. Aplikace nabízí prostředí, ve kterém si uživatel spravuje extrakční úlohy. Úlohy jsou vytvářeny pomocí interaktivních grafů. Této funkcionality je docíleno pomocí současných moderních trendů z oblasti JavaScriptových aplikací, které jsou v práci popsány. Zejména se jedná o knihovnu React a správce stavu Redux.

Národní úložiště šedé literatury : Nalezeno 58 záznamů.   1 - 10dalšíkonec  přejít na záznam:
Chcete být upozorněni, pokud se objeví nové záznamy odpovídající tomuto dotazu?
Přihlásit se k odběru RSS.